13 research outputs found

    Anforderungsbasierte Modellierung und Ausführung von Datenflussmodellen

    Get PDF
    Heutzutage steigen die Menge an Daten sowie deren Heterogenität, Änderungshäufigkeit und Komplexität stark an. Dies wird häufig als das "Big-Data-Problem" bezeichnet. Durch das Aufkommen neuer Paradigmen, wie dem Internet der Dinge oder Industrie 4.0, nimmt dieser Trend zukünftig noch weiter zu. Die Verarbeitung, Analyse und Visualisierung von Daten kann einen hohen Mehrwert darstellen, beispielsweise durch die Erkennung bisher unbekannter Muster oder durch das Vorhersagen von Ereignissen. Jedoch stellen die Charakteristiken von Big-Data, insbesondere die große Datenmenge und deren schnelle Änderung, eine große Herausforderung für die Verarbeitung der Daten dar. Herkömmliche, bisher angewandte Techniken, wie zum Beispiel Analysen basierend auf relationalen Datenbanken, kommen hierbei oft an ihre Grenzen. Des Weiteren ändert sich auch die Art der Anwender der Datenverarbeitung, insbesondere in Unternehmen. Anstatt die Datenverarbeitung ausschließlich von Programmierexperten durchzuführen, wächst die Anwendergruppe auch um Domänennutzer, die starkes Interesse an Datenanalyseergebnissen haben, jedoch diese nicht technisch umsetzen können. Um die Unterstützung von Domänennutzern zu ermöglichen, entstand ca. im Jahr 2007, im Rahmen der Web-2.0-Bewegung, das Konzept der Mashups, die es auf einfachem Wege erlauben sollen, Anwender aus unterschiedlichen Domänen beim Zusammenführen von Programmen, grafischen Oberflächen, und auch Daten zu unterstützen. Hierbei lag der Fokus vor allem auf Webdatenquellen wie RSS-Feeds, HTML-Seiten, oder weiteren XML-basierten Formaten. Auch wenn die entstandenen Konzepte gute Ansätze liefern, um geringe Datenmengen schnell und explorativ durch Domänennutzer zu verarbeiten, können sie mit den oben genannten Herausforderungen von Big-Data nicht umgehen. Die Grundidee der Mashups dient als Inspiration dieser Dissertation und wird dahingehend erweitert, moderne, komplexe und datenintensive Datenverarbeitungs- und Analyseszenarien zu realisieren. Hierfür wird im Rahmen dieser Dissertation ein umfassendes Konzept entwickelt, das sowohl eine einfache Modellierung von Datenanalysen durch Domänenexperten ermöglicht - und somit den Nutzer in den Mittelpunkt stellt - als auch eine individualisierte, effiziente Ausführung von Datenanalysen und -verarbeitung ermöglicht. Unter einer Individualisierung wird dabei verstanden, dass die funktionalen und nichtfunktionalen Anforderungen, die je nach Anwendungsfall variieren können, bei der Ausführung berücksichtigt werden. Dies erfordert einen dynamischen Aufbau der Ausführungsumgebung. Hierbei wird dem beschriebenen Problem durch mehrere Ebenen begegnet: 1) Die Modellierungsebene, die als Schnittstelle zu den Domänennutzern dient und die es erlaubt Datenverarbeitungsszenarien abstrakt zu modellieren. 2) Die Modelltransformationsebene, auf der das abstrakte Modell auf verschiedene ausführbare Repräsentationen abgebildet werden kann. 3) Die Datenverarbeitungsebene, mit der die Daten effizient in einer verteilten Umgebung verarbeitet werden, und 4) die Datenhaltungsebene, in der Daten heterogener Quellen extrahiert sowie Datenverarbeitungs- oder Analyseergebnisse persistiert werden. Die Konzepte der Dissertation werden durch zugehörige Publikationen in Konferenzbeiträgen und Fachmagazinen gestützt und durch eine prototypische Implementierung validiert

    Automatische Vervollständigung von Topologien für TOSCA-basierte Cloud-Anwendungen

    Get PDF
    Seit einigen Jahren sind Cloud Computing-Technologien weit verbreitet. Statt Anwendungen, Rechenprozesse, Datenspeicherung oder ähnliche IT-Dienste auf lokalen Rechnern oder Servern auszuführen, werden diese sowohl von Firmen als auch von Privatpersonen vermehrt in Clouds ausgelagert. Dies bietet viele Vorteile wie Skalierbarkeit, Kostenreduzierung und eine hohe Verfügbarkeit von Anwendungen. Um eine Anwendung automatisiert in die Cloud auszulagern, werden häufig Topologien erstellt, die alle Komponenten und Relationen beschreiben, die für eine Provisionierung notwendig sind. Diese können mit Hilfe des OASIS-Standards TOSCA (Topology and Orchestration Specification for Cloud Applications) [1] modelliert werden. Um vollständige TOSCA-Topologien für eine Provisionierung zu erstellen, müssen jedoch sehr viele Details (Anbieter, Web Server-Versionen etc.) beschrieben werden. Haben Entwickler von Cloud-Anwendungen keine konkreten Anforderungen an Providerwahl, Infrastruktur oder Plattformen, sollten ihnen derartige Detail-Entscheidungen abgenommen werden. Im Rahmen dieser Diplomarbeit wird ein Konzept entwickelt und implementiert, welches es dem Anwendungsentwickler ermöglicht, unvollständige Topologien zu modellieren, die lediglich anwendungsspezifische Komponenten und Relationen enthalten. Diese werden anschließend automatisch durch das Hinzufügen von Infrastruktur- und Plattform-Komponenten, mit der im Rahmen dieser Arbeit entwickelten Lösung, zu einer provisionierbaren Topologie vervollständigt. Zusätzlich wird die Möglichkeit geschaffen eine assistierte Modellierung durchzuführen. Bei dieser werden dem Modellierer in jedem Schritt der Modellierung - zur Topologie passende - Komponenten und Relationen vorgeschlagen, aus denen er auswählen kann. Die ausgewählten Komponenten und Relationen werden anschließend der Topologie hinzugefügt. Dies hilft insbesondere ungeübten Modellierern eine TOSCA-Topologie korrekt zu vervollständigen. Um die entworfenen Konzepte in der Praxis anwendbar zu machen, werden diese in das grafische TOSCA-Modellierungstool Winery [2] integriert

    Automated Creation and Provisioning of Decision Information Packages for the Smart Factory

    Get PDF
    In recent years, Industry 4.0 emerges as a new trend, enabling the integration of data-intensive cyber physical systems, Internet of Things, and mobile applications, into production environments. Even though Industry 4.0 concentrates on automated engineering and manufacturing processing, the human actor is still important for decision making in the product lifecycle process. To support correct and efficient decision making, human actors have to be provided with relevant data depending on the current context. This data needs to be retrieved from distributed sources like bill of material systems, product data management and manufacturing execution systems, holding product model and factory model. In this article, we address this issue by introducing the concept of decision information packages, which enable to compose relevant engineering data for a specific context from distributed data sources. To determine relevant data, we specify a context-aware engineering data model and corresponding operators. To realize our approach, we provide an architecture and a prototypical implementation based on requirements of a real case scenario. This article is a revised and selected version of the previous work

    Systemanalyse und Workflowverwaltung eines Frameworks für Cache-effiziente adaptive Simulation

    Get PDF
    Dieses Dokument stellt die Ausarbeitung der Fachstudie "Systemanalyse und Workflowverwaltung eines Frameworks für cache-effiziente adaptive Simulation" dar, welche von Mai bis Oktober 2011 stattfand. Die Abteilung "Simulation großer Systeme" des Instituts für Parallele und Verteilte Systeme forscht derzeit an der Entwicklung eines Frameworks für eine effiziente Berechnung von fluiden Strömungen durch poröse Medien. Dabei wurde der Ansatz der Gitterberechnung nach Sierpinski gewählt und das Framework soweit funktionsfähig implementiert. Dieses System enthält jedoch noch Schwachstellen die mit Hilfe dieser Fachstudie behoben werden sollten. Die Fachstudie ist in zwei Teile gegliedert. Der erste Teil umfasst die Analyse des gegebenen Frameworks mitsamt allen Hilfsmitteln, den eingesetzten Programmiersprachen und Werkzeugen. Des Weiteren sollte dabei der angewandte Simulationsprozess selbst mit den im gegebenen System verwendeten Konzepten und Methoden beschrieben werden, um die Problematik des Systems vollständig erfassen zu können. Hierbei sollte ein Nachbau des Systems in einer beliebigen Programmiersprache erfolgen. Der zweite Teil der Fachstudie umfasst Lösungsansätze für die Problematiken des Systems anhand selbst entworfener Prototypen. Mögliche Lösungsansätze sind Präprozessor-Anweisungen, ein Python-Skript und die Erstellung einer Workflow-GUI. Dabei soll das bestehende System nicht ersetzt, sondern dessen Bedienung erleichtert werden. Diese Lösungsansätze sollten untersucht, beschrieben und anschließend mit dem bestehenden System bzw. mit den anderen Lösungsansätzen verglichen werden. Das Ergebnis ist eine Empfehlung des bestmöglichen Lösungsansatzes. Dieses Dokument ist in 5 Kapitel gegliedert. Nach dem Einleitungskapitel befasst sich das darauffolgende zweite Kapitel mit der Analyse des gegebenen Systems. Hierbei werden die Methoden des Simulationsprozesses, die Einsatzgebiete und die eingesetzten Werkzeuge beschrieben. Am Ende dieses Kapitels wird die Problematik des bestehenden Systems geschildert und der Nachbau beschrieben. Das dritte Kapitel beschreibt die verschiedenen Ansätze zur Lösung der beschriebenen Problematik. Die drei Lösungsansätze sind Präprozessor-Anweisungen, ein Python-Skript zur Codegenerierung und eine Workflow-GUI. Anschließend werden diese Lösungsansätze bezüglich verschiedener Qualitäten wie Wartbarkeit, Einfachheit, Erlernbarkeit usw. verglichen. Aus diesen Informationen folgt im letzten Kapitel das Fazit, welches eine Empfehlung über die zu wählende Methode gibt

    The Social Factory: Connecting People, Machines and Data in Manufacturing for Context-Aware Exception Escalation

    Get PDF
    Manufacturing environments are socio-technical systems \ where people have to interact with machines to achieve \ a common goal. The goal of the fourth industrial revolution is \ to improve their flexibility for mass customization and rapidly \ changing production conditions. As a contribution towards \ this goal, we introduce the Social Factory: a social network \ with a powerful analytics backend to improve the connection \ between the persons working in the production environment, \ the manufacturing machines, and the data that is created \ in the process. We represent machines, people and chatbots \ for information provisioning as abstract users in the social \ network. We enable natural language based communication between \ them and provide a rich knowledge base and automated \ problem solution suggestions. Access to complex production \ environments thus becomes intuitive, cooperation among users \ improves and problems are resolved more easily

    Towards a Rule-based Manufacturing Integration Assistant

    Get PDF
    Recent developments and steadily declining prices in ICT enable an economic application of advanced digital tools in wide areas of manufacturing. Solutions based on concepts and technologies of the “Internet of Things” or “cyber physical systems” can be used to implement monitoring as well as self-organization of production, maintenance or logistics processes. However, integration of new digital tools in existing heterogeneous manufacturing IT systems and integration of machines and devices into manufacturing environments is an expensive and tedious task. Therefore, integration issues on IT and manufacturing level significantly prevent agile manufacturing. Especially small and medium-sized enterprises do not have the expertise or the investment possibilities to realize such an integration. To tackle this issue, we present the approach of the Manufacturing Integration Assistant - MIALinx. The objective is to develop and implement a lightweight and easy-to-use integration solution for small and medium-sized enterprises based on recent web automation technologies. MIALinx aims to simplify the integration using simple programmable, flexible and reusable “IF-THEN” rules that connect occurring situations in manufacturing, such as a machine break down, with corresponding actions, e.g., an automatic maintenance order generation. For this purpose, MIALinx connects sensors and actuators based on defined rules whereas the rule set is defined in a domain-specific, easy-to-use manner to enable rule modeling by domain experts. Through the definition of rule sets, the workers’ knowledge can be also externalized. Using manufacturing-approved cloud computing technologies, we enable robustness, security, and a low-effort, low-cost integration of MIALinx into existing manufacturing environments to provide advanced digital tools also for small and medium-sized enterprises

    Automating the Provisioning and Configuration of Devices in the Internet of Things

    Get PDF
    The Internet of Things benefits from an increasing number of interconnected technical devices. This has led to the existence of so-called smart environments, which encompass one or more devices sensing, acting, and automatically performing different tasks to enable their self-organization. Smart environments are divided into two parts: the physical environment and its digital representation, oftentimes referred to as digital twin. However, the automated binding and monitoring of devices of smart environments are still major issues. In this article we present a method and system architecture to cope with these challenges by enabling (i) easy modeling of sensors, actuators, devices, and their attributes, (ii) dynamic device binding based on their type, (iii) the access to devices using different paradigms, and (iv) the monitoring of smart environments in regard to failures or changes. We furthermore provide a prototypical implementation of the introduced approach
    corecore